Les prix de la DDR5 ont triplé en un an, la HBM est captée par les GPU d'intelligence artificielle, et les fabricants de PC comme de smartphones répercutent déjà la facture. Dans les coulisses, un protocole nommé CXL pourrait offrir une porte de sortie aux datacenters.

La pénurie de RAM, vous connaissez ? Rappel salvateur pour ceux qui n'auraient pas suivi le sujet depuis l'hiver dernier : les datacenters spécialisés en IA engloutissent des quantités phénoménales de mémoire HBM pour alimenter les GPU Nvidia, AMD et consorts. Cette demande aspire les capacités de production de Samsung, SK hynix et Micron, qui réorientent leurs usines vers les puces les plus rentables. Résultat : il reste moins de DRAM conventionnelle pour tout le monde, et les prix de la DDR5 ont été multipliés par trois depuis début 2025. Vous voilà maintenant bien rencardé !
Passons à la bonne nouvelle : la solution la plus concrète au problème est là, et elle s'appelle CXL.
Le CXL, ou l'art de mutualiser la mémoire entre serveurs
Compute Express Link (CXL pour les intimes) est un protocole d'interconnexion qui circule sur les mêmes voies physiques que le PCIe. The Register lui a consacré un long papier ce week-end, et le concept mérite qu'on s'y arrête.
Le principe ressemble à ce que le covoiturage fait aux places de parking. Au lieu d'attribuer une quantité fixe de RAM à chaque serveur (dont une bonne partie dort à un instant donné), le CXL regroupe cette mémoire dans un pool partagé.
Trois versions coexistent, chacune un cran au-dessus de la précédente. CXL 1.0 (2019) se contente d'ajouter de la mémoire à un serveur via un slot PCIe. Une rallonge, en somme. CXL 2.0 introduit la commutation et le « memory pooling » : plusieurs serveurs accèdent à un même réservoir de mémoire. Chaque zone reste attribuée à un hôte à la fois (pas de partage simultané, on n'en est pas encore là). CXL 3.0 franchit le pas, avec un vrai partage entre machines et cohérence de cache. Les processeurs AMD Epyc et Intel Xeon actuels gèrent déjà le 2.0. Amazon affirme que ses Graviton5 prennent en charge la version 3.0.
CXL est né chez Intel en 2019, avant d'être « donné » (Intel reste membre fondateur) à un consortium ouvert cofondé avec Alibaba, Cisco, Dell, Google, HPE, Huawei, Meta et Microsoft. AMD, NVIDIA et Samsung ont rejoint le conseil d'administration en 2022, et les standards concurrents (Gen-Z, OpenCAPI, CCIX) ont fini par replier leurs spécifications dans CXL. Le consortium regroupe aujourd'hui plus de 250 membres et en est à sa version 4.0 (publiée en novembre 2025). Autant dire que sur le papier, tout le monde a signé.
Dans la pratique, des entreprises comme Astera Labs, Marvell ou Enfabrica construisent déjà ce que The Register appelle des « memory godboxes ». Traduction libre : des baies entières dédiées à la mémoire, capables d'embarquer 18 To de DDR5 par châssis. Enfabrica promet de diviser par deux le coût de calcul en les raccordant aux racks NVIDIA GB200. En parlant de NVIDIA, l'entreprise a d'ailleurs bien flairé le filon et a racheté Enfabrica en septembre dernier. Malin le Jensen.

Samsung et Micron, de leur côté, proposent des modules CXL de 128 à 256 Go. L'usage le plus immédiat concerne l'offload des KV caches. Pour les non-initiés : ce sont les caches d'attention des modèles de langage. Ils occupent parfois plus de mémoire que le modèle lui-même, et que Google a déjà tenté d'optimiser avec un algorithme maison il y a quelques semaines.
La panacée pour stopper les augmentations de prix sur PC et smartphones
Le CXL est une technologie de datacenter. Vous n'en verrez pas dans votre tour gaming (pas encore, en tout cas). Mais ses effets vous concernent directement. Aujourd'hui, la mémoire pèse environ 35 % du coût de fabrication d'un PC selon le patron de HP. Il y a un an, on tournait autour de 15 à 18 %. Les prix des smartphones ont grimpé de 40 à 50 % selon les marchés. Et Samsung n'a même pas eu à forcer la main pour la LPDDR5X des iPhone 17 : Apple a accepté une hausse de 230 % sans broncher. Quand le client le plus puissant de la planète plie sans négocier, c'est que le rapport de force a basculé. Si le CXL permet aux datacenters de mutualiser leur RAM, cela pourrait relâcher la pression sur l'offre grand public. Mais pas avant plusieurs trimestres.
En attendant que le CXL produise ses effets, les prix de la DRAM devraient encore grimper de 93 à 98 % au deuxième trimestre 2026. Normalisation prévue au plus tôt en 2027. D'ici là, votre prochain kit DDR5 risque de vous coûter sensiblement plus cher que le précédent.